Data Scienceセンター Machine Learning Privacy & Trust チーム
Data Scienceセンター Machine Learning Privacy & Trust チームのリュウと前田です。 2023年3月に開催された第15回データ工学と情報マネジメントに関するフォーラム(DEIM2023)にて、日本データベース学会 上林奨励賞をリュウが受賞しました。 また、同フォーラムの優秀論文賞を前田、長谷川、髙橋が受賞し、2023年6月に開催されたDBSJ総会にて授賞式が執り行われました。 各受賞について報告いたします。 日本データベース学会 上林奨励賞 受賞の報告 Data Scienceセンター Machine Learning Privacy & Trust チームのリュウです。 この度は、日本データベース学会上林奨励賞を受賞しましたことを報告します。この賞は、データベース系の若手研究者に対して優れた成果を評価するものであり、私にとって大変光栄な出来事です。この場を借りて、ご指導やご支援をいただいた方々に心から感謝申し上げます。 受賞となる研究は、プライバシー保護技術、特に差分プライバシーの研究開発です。 受賞の一つ目のきっか
2021年夏のインターンシップに参加したお茶の水女子大学の松本茉倫です.インターンシップでは「局所差分プライバシを適用したFederated Learningの安全性評価」について研究しました. 本研究に関する論文は,第14回データ工学と情報マネジメントに関するフォーラム (DEIM2022) にて、3月1日に同タイトル(プライバシを保護したFederated Learningの安全性評価)発表予定です. 研究背景 クライアントが持つデータを集約せずに分散した状態で機械学習を行う方法として,2016年に提唱されたFederated Learningがあります. Federated Learningは,サーバから配布されたグローバルモデルを使ってクライアントが自身の持つデータの勾配を計算し,サーバが勾配を集約すること(平均化など)で学習モデルを更新する方法です. 一見するとプライバシ保護されているように思えますが,クライアントが生成した勾配から元データが復元される恐れがあるとされています. プライバシ保護をした状態でFederated Learningを行う方法の一つとして,勾
大阪大学情報科学研究科の伊藤竜一と申します.2021年の夏期インターンシップに6週間参加し,期間後もアルバイトとして従事していました.プライバシを保護しながらパーソナルデータを含むデータの分析を可能にしたいというモチベーションから,データ生成と差分プライベート学習に関する研究を行いました.この記事では差分プライベート学習について紹介したいと思います.なお,より詳しい内容は第14回データ工学と情報マネジメントに関するフォーラム (DEIM2022) にて「低ランク近似を介した選択的パラメータ更新による差分プライベート学習」として発表予定です. 研究背景 個人に関するデータ,つまりパーソナルデータの利活用が進んでいます.パーソナルデータの利用はサービスに有用となることが多いですが,一方で個々人の特定やプライバシの開示を防ぐ必要があります.プライバシ保護技術は多数ありますが,今回は差分プライバシという指標に注目します.差分プライバシは,簡単に説明すると,「特定のデータが含まれているかどうかの識別が ϵ, δ というパラメータで指定した程度に困難である」というこ
ML Privacyチーム マネージャー / シニアリサーチャー 博士(工学)
LINE Data Scienceセンター、Machine Learning Researchチームの高橋です。2019年夏季インターンの高木さんとの共同研究成果をトップカンファレンスICDE2021で発表しました。 ICDE 2021について IEEE主催のICDE 2021 (37th IEEE International Conference on Data Engineering)は、データベース・データ工学分野におけるトップカンファレンスです。SIGMODやVLDBと並ぶDB系三大会議として知られています。本年度は、4月19日〜22日にかけてギリシャのハニアで開催予定でしたが、昨今のCOVID-19の感染拡大の影響か ら、オンラインのバーチャルカンファレンスとして開催されました。LINEからは、高橋と2019年の夏にLINEのインターンに参加した高木駿さんとの共同研究の成果が採択され、発表の機会を頂きました。採択率は28%と例年と比べると高い水準でした (これまでは20%を下回るような採択率でした)。 発表内容 我々の発表内容は、生成モデルのプライバシ保護に
2020年夏のインターンシップに参加した加藤郁之です.今回のインターンシップでは,多次元データに対する差分プライベートなデータ探索の実現に関する研究を行いました.また,インターンシップ終了後も,アルバイトとして半年間研究に携わりました. 本研究に関する論文は,2021年3月に開催される 第13回データ工学と情報マネジメントに関するフォーラム (DEIM2021) で発表予定です. 研究背景 企業や組織が多くのデータを収集し,データを活用することで多大な価値を産み出しています.一方で,個人の行動履歴やヘルスケアに関するデータなど,プライバシ性の高いデータの利活用はプライバシ保護の観点から大きく制限されます.このような背景から,データのプライバシ保証と利活用を両立するための枠組みが必要となっています. 本研究では、技術の有用性を確認するため、公開データを用いて評価検証に取り組みました. 差分プライバシは,2006年にDworkによって提案された数学的に厳密なプライバシ定義です.下図のように,データベースからの出力に対して精緻にデザインされたランダム化を行うことで,データベース内
2019年夏のインターンシップに参加した高木 駿です。インター ンシップでは「データ共有のための生成モデルのプライバシ保護」について研究しました。今回、インターンで取り組んだ内容を2020年3月にオンラインで開催されたDEIM 2020 (第12回データ工学と情報マネジメントに関するフォーラム)で発表し、オンラインプレゼンテーション賞を頂くことができました。その研究内容について紹介します。発表資料は以下で公開しています。 https://speakerdeck.com/line_developers/privacy-preserving-deep-generative-model 背景 企業は様々なデータを抱えていますが、その中にはプライバシに関わるものが多く含まれています。その結果、組織外だけでなく組織内であってもデータの共有が難しいという問題があります。このプライバシの問題の解決は、保有するデータの活用を促し、娯楽・医療などの様々な場面での貢献に繋がります。 プライバシ研究においては、何をプライバシと定義するかが重要になります。ここでは近年注目されている差分プライバシを用いるものとし